home *** CD-ROM | disk | FTP | other *** search
/ Hacker's Secrets 4 / Hacker's Secrets 4.iso / misc / concern.txt < prev    next >
Text File  |  1996-10-19  |  59KB  |  1,103 lines

  1.  
  2. From cracked@primenet.com Sat Oct 19 17:48:35 1996
  3. Date: Fri, 18 Oct 1996 22:37:35 -0700 (MST)
  4. To: cracked@primenet.com
  5. From: CrACKeD <cracked@primenet.com>
  6. Message-ID: <199610190537.WAA27169@primenet.com>
  7. Subject: Concerning Hackers who Break into Systems
  8.  
  9.  
  10. To be presented at the 13th National Computer Security Conference,
  11. Washington, D.C., Oct. 1-4, 1990.
  12.  
  13.  
  14.           Concerning Hackers Who Break into Computer Systems
  15.  
  16.                          Dorothy E. Denning
  17.            Digital Equipment Corp., Systems Research Center
  18.                130 Lytton Ave., Palo Alto, CA 94301
  19.                  415-853-2252, denning@src.dec.com
  20.  
  21.  
  22. Abstract
  23.  
  24. A diffuse group of people often called ``hackers'' has been
  25. characterized as unethical, irresponsible, and a serious danger to
  26. society for actions related to breaking into computer systems.  This
  27. paper attempts to construct a picture of hackers, their concerns,
  28. and the discourse in which hacking takes place.  My initial findings
  29. suggest that hackers are learners and explorers who want to help
  30. rather than cause damage, and who often have very high standards
  31. of behavior.  My findings also suggest that the discourse surrounding
  32. hacking belongs at the very least to the gray areas between larger
  33. conflicts that we are experiencing at every level of society and
  34. business in an information age where many are not computer literate.
  35. These conflicts are between the idea that information cannot be owned
  36. and the idea that it can, and between law enforcement and the First
  37. and Fourth Amendments.  Hackers have raised serious issues about
  38. values and practices in an information society.  Based on my findings,
  39. I recommend that we work closely with hackers, and suggest several
  40. actions that might be taken.
  41.  
  42.  
  43. 1.  Introduction
  44.  
  45. The world is crisscrossed with many different networks that are used
  46. to deliver essential services and basic necessities -- electric power,
  47. water, fuel, food, goods, to name a few.  These networks are all
  48. publicly accessible and hence vulnerable to attacks, and yet virtually
  49. no attacks or disruptions actually occur.
  50.  
  51. The world of computer networking seems to be an anomaly in the
  52. firmament of networks.  Stories about attacks, breakins, disruptions,
  53. theft of information, modification of files, and the like appear
  54. frequently in the newspapers.  A diffuse group called ``hackers''
  55. is often the target of scorn and blame for these actions.  Why are
  56. computer networks any different from other vulnerable public networks?
  57. Is the difference the result of growing pains in a young field?
  58. Or is it the reflection of deeper tensions in our emerging information
  59. society?
  60.  
  61. There are no easy or immediate answers to these questions.  Yet it
  62. is important to our future in a networked, information-dependent
  63. world that we come to grips with them.  I am deeply interested in
  64. them.  This paper is my report of what I have discovered in the early
  65. stages of what promises to be a longer investigation.  I have
  66. concentrated my attention in these early stages on the hackers
  67. themselves.  Who are they?  What do they say?  What motivates them?
  68. What are their values?  What do that have to say about public policies
  69. regarding information and computers?  What do they have to say about
  70. computer security?
  71.  
  72. >From such a profile I expect to be able to construct a picture of
  73. the discourses in which hacking takes place.  By a discourse I mean
  74. the invisible background of assumptions that transcends individuals
  75. and governs our ways of thinking, speaking, and acting.  My initial
  76. findings lead me to conclude that this discourse belongs at the very
  77. least to the gray areas between larger conflicts that we are
  78. experiencing at every level of society and business, the conflict
  79. between the idea that information cannot be owned and the idea that
  80. it can, and the conflict between law enforcement and the First and
  81. Fourth Amendments.
  82.  
  83. But, enough of the philosophy.  On with the story!
  84.  
  85.  
  86. 2.  Opening Moves
  87.  
  88. In late fall of 1989, Frank Drake (not his real name), Editor of
  89. the now defunct cyberpunk magazine W.O.R.M., invited me to be
  90. interviewed for the magazine.  In accepting the invitation, I hoped
  91. that something I might say would discourage hackers from breaking
  92. into systems.  I was also curious about the hacker culture.  This
  93. seemed like a good opportunity to learn about it.
  94.  
  95. The interview was conducted electronically.  I quickly discovered
  96. that I had much more to learn from Drake's questions than to teach.
  97. For example, he asked: ``Is providing computer security for large
  98. databases that collect information on us a real service?  How do
  99. you balance the individual's privacy vs. the corporations?''  This
  100. question surprised me.  Nothing that I had read about hackers ever
  101. suggested that they might care about privacy.  He also asked: ``What
  102. has [the DES] taught us about what the government's (especially NSA's)
  103. role in cryptography should be?''  Again, I was surprised to discover
  104. a concern for the role of the government in computer security.  I
  105. did not know at the time that I would later discover considerable
  106. overlap in the issues discussed by hackers and those of other computer
  107. professionals.
  108.  
  109. I met with Drake to discuss his questions and views.  After our
  110. meeting, we continued our dialog electronically with me interviewing
  111. him.  This gave me the opportunity to explore his views in greater
  112. depth.  Both interviews appear in ``Computers Under Attack,''
  113. edited by Peter Denning [DenningP90].
  114.  
  115. My dialog with Drake increased my curiosity about hackers.  I read
  116. articles and books by or about hackers.  In addition, I had discussions
  117. with nine hackers whom I will not mention by name.  Their ages ranged
  118. from 17 to 28.
  119.  
  120. The word ``hacker'' has taken on many different meanings ranging
  121. from 1) ``a person who enjoys learning the details of computer systems
  122. and how to stretch their capabilities'' to 2) ``a malicious or
  123. inquisitive meddler who tries to discover information by poking around
  124. .. possibly by deceptive or illegal means ...'' [Steele83]  The
  125. hackers described in this paper satisfy both of these definitions,
  126. although all of the hackers I spoke with said they did not engage
  127. in or approve of malicious acts that damage systems or files.  Thus,
  128. this paper is not about malicious hackers.  Indeed, my research so
  129. far suggests that there are very few malicious hackers.   Neither
  130. is this paper about career criminals who, for example, defraud
  131. businesses, or about people who use stolen credit cards to purchase
  132. goods.  The characteristics of many of the hackers I am writing about
  133. are summed up in the words of one of the hackers: ``A hacker is someone
  134. that experiments with systems... [Hacking] is playing with systems
  135. and making them do what they were never intended to do.  Breaking
  136. in and making free calls is just a small part of that.  Hacking is
  137. also about freedom of speech and free access to information -- being
  138. able to find out anything.  There is also the David and Goliath side
  139. of it, the underdog vs. the system, and the ethic of being a folk
  140. hero, albeit a minor one.''
  141.  
  142. Richard Stallman, founder of the Free Software Foundation who calls
  143. himself a hacker according to the first sense of the word above,
  144. recommends calling security-breaking hackers ``crackers''
  145. [Stallman84].  While this description may be more accurate, I shall
  146. use the term ``hacker'' since the people I am writing about call
  147. themselves hackers and all are interested in learning about computer
  148. and communication systems.  However, there are many people like
  149. Stallman who call themselves hackers and do not engage in illegal
  150. or deceptive practices; this paper is also not about those hackers.
  151.  
  152. In what follows I will report on what I have learned about hackers
  153. from hackers.  I will organize the discussion around the principal
  154. domains of concerns I observed.  I recommend Meyer's thesis [Meyer89]
  155. for a more detailed treatment of the hackers' social culture and
  156. networks, and Meyer and Thomas [MeyerThomas90] for an interesting
  157. interpretation of the computer underground as a postmodernist rejection
  158. of conventional culture that substitutes ``rational technological
  159. control of the present for an anarchic and playful future.''
  160.  
  161. I do not pretend to know all the concerns that hackers have, nor
  162. do I claim to have conducted a scientific study.  Rather, I hope
  163. that my own informal study motivates others to explore the area
  164. further.  It is essential that we as computer security professionals
  165. take into account hackers' concerns in the design of our policies,
  166. procedures, laws regulating computer and information access, and
  167. educational programs.  Although I speak about security-breaking hackers
  168. as a group, their competencies, actions, and views are not all the
  169. same.  Thus, it is equally important that our policies and programs
  170. take into account individual differences.
  171.  
  172. In focusing on what hackers say and do, I do not mean for a moment
  173. to set aside the concerns of the owners and users of systems that
  174. hackers break into, the concerns of law enforcement personnel, or
  175. our own concerns as computer security professionals.  But I do
  176. recommend that we work closely with hackers as well as these other
  177. groups to design new approaches and programs for addressing the
  178. concerns of all.   Like ham radio operators, hackers exist, and it
  179. is in our best interest that we learn to communicate and work with
  180. them rather than against them.
  181.  
  182. I will suggest some actions that we might consider taking, and I
  183. invite others to reflect on these and suggest their own.  Many of
  184. these suggestions are from the hackers themselves; others came from
  185. the recommendations of the ACM Panel on Hacking [Lee86] and from
  186. colleagues.
  187.  
  188. I grouped the hackers' concerns into five categories: access to
  189. computers and information for learning; thrill, excitement and
  190. challenge; ethics and avoiding damage; public image and treatment;
  191. and privacy and first amendment rights.  These are discussed in
  192. the next five subsections.  I have made an effort to present my
  193. findings as uncritical observations.  The reader should not infer
  194. that I either approve or disapprove of actions hackers take.
  195.  
  196.  
  197. 3.  Access to Computers and Information for Learning
  198.  
  199. Although Levy's book ``Hackers'' [Levy84] is not about today's
  200. security-breaking hackers, it articulates and interprets a ``hacker
  201. ethic'' that is shared by many of these hackers.  The ethic includes
  202. two key principles that were formulated in the early days of the
  203. AI Lab at MIT: ``Access to computers -- and anything which might
  204. teach you something about the way the world works -- should be
  205. unlimited and total,'' and ``All information should be free.''  In
  206. the context in which these principles were formulated, the computers
  207. of interest were research machines and the information was software
  208. and systems information.
  209.  
  210. Since Stallman is a leading advocate of open systems and freedom
  211. of information, especially software, I asked him what he means by
  212. this.  He said: ``I believe that all generally useful information
  213. should be free. By `free' I am not referring to price, but rather
  214. to the freedom to copy the information and to adapt it to one's own
  215. uses.''  By ``generally useful'' he does not include confidential
  216. information about individuals or credit card information, for example.
  217. He further writes: ``When information is generally useful,
  218. redistributing it makes humanity wealthier no matter who is
  219. distributing and no matter who is receiving.''  Stallman has argued
  220. strongly against user interface copyright, claiming that it does
  221. not serve the users or promote the evolutionary process [Stallman90].
  222.  
  223. I asked hackers whether all systems should be accessible and all
  224. information should be free.  They said that it is OK if some systems
  225. are closed and some information, mainly confidential information
  226. about individuals, is not accessible.  They make a distinction between
  227. information about security technology, e.g., the DES, and confidential
  228. information protected by that technology, arguing that it is the
  229. former that should be accessible.   They said that information hoarding
  230. is inefficient and slows down evolution of technology.  They also
  231. said that more systems should be open so that idle resources are
  232. not wasted.  One hacker said that the high costs of communication
  233. hurts the growth of the information economy.
  234.  
  235. These views of information sharing seem to go back at least as far
  236. as the 17th and 18th Centuries.  Samuelson [Samuelson89] notes that
  237. ``The drafters of the Constitution, educated in the Enlightenment
  238. tradition, shared that era's legacy of faith in the enabling powers
  239. of knowledge for society as well as the individual.''  She writes
  240. that our current copyright laws, which protect the expression of
  241. information, but not the information itself, are based on the belief
  242. that unfettered and widespread dissemination of information promotes
  243. technological progress. (Similarly for patent laws which protect
  244. devices and processes, not the information about them.)  She cites
  245. two recent court cases where courts reversed the historical trend
  246. and treated information as ownable property.  She raises questions
  247. about whether in entering the Information Age where information is
  248. the source of greatest wealth, we have outgrown the Enlightenment
  249. tradition and are coming to treat information as property.
  250.  
  251. In a society where knowledge is said to be power, Drake expressed
  252. particular concern about what he sees as a growing information gap
  253. between the rich and poor.  He would like to see information that
  254. is not about individuals be made public, although it could still
  255. be owned.  He likes to think that companies would actually find it
  256. to their advantage to share information.  He noted how IBM's disclosure
  257. of the PC allowed developers to make more products for the computers,
  258. and how Adobe's disclosure of their fonts helped them compete against
  259. the Apple-Microsoft deal.  He recognizes that in our current political
  260. framework, it is difficult to make all information public, because
  261. complicated structures have been built on top of an assumption that
  262. certain information will be kept secret.  He cites our defense policy,
  263. which is founded on secrecy for military information, as an example.
  264.  
  265. Hackers say they want access to information and computing and network
  266. resources in order to learn.  Both Levy [Levy84] and Landreth
  267. [Landreth89] note that hackers have an intense, compelling interest
  268. in computers and learning, and many go into computers as a profession.
  269. Some hackers break into systems in order to learn more about how
  270. the systems work.  Landreth says these hackers want to remain
  271. undiscovered so that they can stay on the system as long as possible.
  272. Some of them devote most of their time to learning how to break the
  273. locks and other security mechanisms on systems; their background
  274. in systems and programming varies considerably.  One hacker wrote
  275. ``A hacker sees a security hole and takes advantage of it because
  276. it is there, not to destroy information or steal.  I think our
  277. activities would be analogous to someone discovering methods of
  278. acquiring information in a library and becoming excited and perhaps
  279. engrossed.''
  280.  
  281. We should not underestimate the effectiveness of the networks in
  282. which hackers learn their craft.  They do research, learn about
  283. systems, work in groups, write, and teach others.  One hacker said
  284. that he belongs to a study group with the mission of churning out
  285. files of information and learning as much as possible.  Within the
  286. group, people specialize, collaborate on research project, share
  287. information and news, write articles, and teach other about their
  288. areas of specialization.  Hackers have set up a private system of
  289. education that engages them, teaches them to think, and allows them
  290. to apply their knowledge in purposeful, if not always legal,
  291. activity.   Ironically, many of our nation's classrooms have been
  292. criticized for providing a poor learning environment that seems to
  293. emphasize memorization rather than thinking and reasoning.  One hacker
  294. reported that through volunteer work with a local high school, he
  295. was trying to get students turned on to learning.
  296.  
  297. Many hackers say that the legitimate computer access they have through
  298. their home and school computers do not meet their needs.  One student
  299. told me that his high school did not offer anything beyond elementary
  300. courses in BASIC and PASCAL, and that he was bored by these.  Hans
  301. Huebner, a hacker in Germany who goes by the name Pengo, wrote in
  302. a note to the RISKS Forum [Huebner89] : ``I was just interested in
  303. computers, not in the data which has been kept on their disks. As
  304. I was going to school at that time, I didn't even have the money
  305. to buy [my] own computer.  Since CP/M (which was the most sophisticated
  306. OS I could use on machines which I had legal access to) didn't turn
  307. me on anymore, I enjoyed the lax security of the systems I had access
  308. to by using X.25 networks.  You might point out that I should have
  309. been patient and wait[ed] until I could go to the university and
  310. use their machines.  Some of you might understand that waiting was
  311. just not the thing I was keen on in those days.''
  312.  
  313. Brian Harvey, in his position paper [Harvey86] for the ACM Panel on
  314. Hacking, claims that the computer medium available to students, e.g.,
  315. BASIC and floppy disks, is inadequate for challenging intellectual
  316. work.  His recommendation is that students be given access to real
  317. computing power, and that they be taught how to use that power
  318. responsibly.  He describes a program he created at a public high school
  319. in Massachusetts during the period 1979-1982.  They installed a
  320. PDP-11/70 and let students and teachers carry out the administration
  321. of the system.  Harvey assessed that putting the burden of dealing
  322. with the problems of malicious users on the students themselves was
  323. a powerful educational force.  He also noted that the students who
  324. had the skill and interest to be password hackers were discouraged
  325. from this activity because they also wanted to keep the trust of
  326. their colleagues in order that they could acquire ``superuser'' status
  327. on the system.
  328.  
  329. Harvey also makes an interesting analogy between teaching computing
  330. and teaching karate.  In karate instruction, students are introduced
  331. to the real, adult community.  They are given access to a powerful,
  332. deadly weapon, and at the same time are taught discipline and to
  333. not abuse the art.  Harvey speculates that the reason that students
  334. do not misuse their power is that they know they are being trusted
  335. with something important, and they want to live up to that trust.
  336. Harvey applied this principle when he set up the school system.
  337.  
  338. The ACM panel endorsed Harvey's recommendation, proposing a
  339. three-tiered computing environment with local, district-wide, and
  340. nation-wide networks.  They recommended that computer professionals
  341. participate in this effort as mentors and role models.   They also
  342. recommended that outside of schools, government and industry be
  343. encouraged to establish regional computing centers using donated
  344. or re-cycled equipment; that students be apprenticed to local companies
  345. either part-time on a continuing basis or on a periodic basis; and,
  346. following a suggestion from Felsenstein [Felsenstein86] for a
  347. ``Hacker's League,'' that a league analogous to the Amateur Radio
  348. Relay League be established to make contributed resources available
  349. for educational purposes.
  350.  
  351. Drake said he liked these recommendations.  He said that if hackers
  352. were given access to powerful systems through a public account system,
  353. they would supervise themselves.  He also suggested that Computer
  354. Resource Centers be established in low-income areas in order to help
  355. the poor get access to information.  Perhaps hackers could help run
  356. the centers and teach the members of the community how to use the
  357. facilities.  One of my colleagues suggested cynically that the hackers
  358. would only use this to teach the poor how to hack rich people's
  359. systems.  A hacker responded by saying this was ridiculous; hackers
  360. would not teach people how to break into systems, but rather how
  361. to use computers effectively and not be afraid of them.
  362. In addition, the hackers I spoke with who had given up illegal
  363. activities said they stopped doing so when they got engaged in other
  364. work.
  365.  
  366. Geoff Goodfellow and Richard Stallman have reported that they have
  367. given hackers accounts on systems that they manage, and that the
  368. hackers have not misused the trust granted to them.  Perhaps
  369. universities could consider providing accounts to pre-college students
  370. on the basis of recommendations from their teachers or parents.
  371. The students might be challenged to work on the same homework problems
  372. assigned in courses or to explore their own interests.  Students
  373. who strongly dislike the inflexibility of classroom learning might
  374. excel in an environment that allows them to learn on their own, in
  375. much the way that hackers have done.
  376.  
  377.  
  378. 4.  Thrill, Excitement, and Challenge
  379.  
  380. One hacker wrote that ``Hackers understand something basic about
  381. computers, and that is that they can be enjoyed.  I know none who
  382. hack for money, or hack to frighten the company, or hack for anything
  383. but fun.''
  384.  
  385. In the words of another hacker, ``Hacking was the ultimate cerebral
  386. buzz for me.  I would come home from another dull day at school,
  387. turn my computer on, and become a member of the hacker elite.  It
  388. was a whole different world where there were no condescending adults
  389. and you were judged only by your talent.  I would first check in
  390. to the private Bulletin Boards where other people who were like me
  391. would hang out, see what the news was in the community, and trade
  392. some info with people across the country.  Then I would start actually
  393. hacking.  My brain would be going a million miles an hour and I'd
  394. basically completely forget about my body as I would jump from one
  395. computer to another trying to find a path into my target.  It was
  396. the rush of working on a puzzle coupled with the high of discovery
  397. many magnitudes intensified.  To go along with the adrenaline rush
  398. was the illicit thrill of doing something illegal. Every step I made
  399. could be the one that would bring the authorities crashing down on
  400. me.  I was on the edge of technology and exploring past it, spelunking
  401. into electronic caves where I wasn't supposed to be.''
  402.  
  403. The other hackers I spoke with made similar statements about the
  404. fun and challenge of hacking.  In SPIN magazine [Dibbel90], reporter
  405. Julian Dibbell speculated that much of the thrill comes from the
  406. dangers associated with the activity, writing that ``the technology
  407. just lends itself to cloak-and-dagger drama,'' and that ``hackers
  408. were already living in a world in which covert action was nothing
  409. more than a game children played.''
  410.  
  411. Eric Corley [Corley89] characterizes hacking as an evolved form of
  412. mountain climbing.  In describing an effort to construct a list of
  413. active mailboxes on a Voice Messaging System, he writes ``I suppose
  414. the main reason I'm wasting my time pushing all these buttons is
  415. simply so that I can make a list of something that I'm not supposed
  416. to have and be the first person to accomplish this.''  He said that
  417. he was not interested in obtaining an account of his own on the system.
  418. Gordon Meyer says he found this to be a recurring theme: ``We aren't
  419. supposed to be able to do this, but we can'' -- so they do.
  420.  
  421. One hacker said he was now working on anti-viral programming.  He
  422. said it was almost as much fun as breaking into systems, and that
  423. it was an intellectual battle against the virus author.
  424.  
  425.  
  426. 5.  Ethics and Avoiding Damage
  427.  
  428. All of the hackers I spoke with said that malicious hacking was morally
  429. wrong.  They said that most hackers are not intentionally malicious,
  430. and that they themselves are concerned about causing accidental
  431. damage.  When I asked Drake about the responsibility of a person
  432. with a PC and modem, his reply included not erasing or modifying
  433. anyone else's data, and not causing a legitimate user on a system
  434. any problems.  Hackers say they are outraged when other hackers cause
  435. damage or use resources that would be missed, even if the results
  436. are unintentional and due to incompetence.  One hacker wrote ``I
  437. have ALWAYS strived to do NO damage, and inconvenience as few people
  438. as possible.  I NEVER, EVER, EVER DELETE A FILE.  One of the first
  439. commands I do on a new system is disable the delete file command.''
  440. Some hackers say that it is unethical to give passwords and similar
  441. security-related information to persons who might do damage.  In
  442. the recent incident where a hacker broke into Bell South and downloaded
  443. a text file on the emergency 911 service, hackers say that there
  444. was no intention to use this knowledge to break into or sabotage
  445. the 911 system.  According to Emmanuel Goldstein [Goldstein90], the
  446. file did not even contain information about how to break into the
  447. 911 system.
  448.  
  449. The hackers also said that some break-ins were unethical, e.g.,
  450. breaking into hospital systems, and that it is wrong to read
  451. confidential information about individuals or steal classified
  452. information.  All said it was wrong to commit fraud for personal
  453. profit.
  454.  
  455. Although we as computer security professionals often disagree with
  456. hackers about what constitutes damage, the ethical standards listed
  457. sound much like our own.  Where the hackers' ethics differs from
  458. the standards adopted by most in the computer security community
  459. is that hackers say it is not unethical to break into many systems,
  460. use idle computer and communications resources, and download system
  461. files in order to learn.  Goldstein says that hacking is not wrong:
  462. it is not the same as stealing, and uncovers design flaws and security
  463. deficiencies [Goldstein89].
  464.  
  465. Brian Reid speculates that a hacker's ethics may come from not being
  466. raised properly as a civilized member of society, and not appreciating
  467. the rules of living in society.  One hacker responded to this with
  468. ``What does `being brought up properly' mean?  Some would say that
  469. it is `good' to keep to yourself, mind your own business.  Others
  470. might argue that it is healthy to explore, take risks, be curious
  471. and discover.'' Brian Harvey [Harvey86] notes that many hackers are
  472. adolescents, and that adolescents are at a less developed stage of
  473. moral development than adults, where they might not see how the effects
  474. of their actions hurt others.  Larry Martin [Martin89] claims that
  475. parents, teachers, the press, and others in society are not aware
  476. of their responsibility to contribute to instilling ethical values
  477. associated with computer use.  This could be the consequence of the
  478. youth of the computing field; many people are still computer illiterate
  479. and cultural norms may be lagging behind advances in technology and
  480. the growing dependency on that technology by businesses and society.
  481. Hollinger and Lanza-Kaduce speculate that the cultural normative
  482. messages about the use and abuse of computer technology have been
  483. driven by the adaption of criminal laws [HollingerLanza-Kaduce88],
  484. which have been mainly in the last decade.  They also speculate that
  485. hacking may be encouraged during the process of becoming computer
  486. literate.  Some of my colleagues say that hackers are irresponsible.
  487. One hacker responded ``I think it's a strong indication of the amount
  488. of responsibility shown that so FEW actually DAMAGING incidents are
  489. known.''
  490.  
  491. But we must not overlook that the differences in ethics also reflect
  492. a difference in philosophy about information and information handling
  493. resources; whereas hackers advocate sharing, we seem to be advocating
  494. ownership as property.  The differences also represent an opportunity
  495. to examine our own ethical behavior and our practices for information
  496. sharing and protection.  For example, one hacker wrote ``I will accept
  497. that it is morally wrong to copy some proprietary software, however,
  498. I think that it is morally wrong to charge $6000 for a program that
  499. is only around 25K long.''  Hence, I shall go into a few of the ethical
  500. points raised by hackers more closely.  It is not a simple case of
  501. good or mature (us) against bad or immature (hackers), or of teaching
  502. hackers a list of rules.
  503.  
  504. Many computer professionals argue the moral questions by analogy,
  505. e.g., see Martin [Martin89].  The analogies are then used to justify
  506. their judgement of a hacker's actions as unethical.  Breaking into
  507. a system is compared with breaking into a house, and downloading
  508. information and using computer and telecommunications services is
  509. compared with stealing tangible goods.  But, say hackers, the
  510. situations are not the same.  When someone breaks into a house, the
  511. objective is to steal goods, which are often irreplaceable, and
  512. property is often damaged in the process.  By contrast, when a hacker
  513. breaks into a system, the objective is to learn and avoid causing
  514. damage.  Downloaded information is copied, not stolen, and still
  515. exists on the original system.  Moreover, as noted earlier, information
  516. has not been traditionally regarded as property.  Dibbel [Dibbel90]
  517. says that when the software industries and phone companies claim
  518. losses of billions of dollars to piracy, they are not talking about
  519. goods that disappear from the shelves and could have been sold.
  520.  
  521. We often say that breaking into a system implies a lack of caring
  522. for the system's owner and authorized users.  But, one hacker says
  523. that the ease of breaking into a system reveals a lack of caring
  524. on the part of the system manager to protect user and company assets,
  525. or failure on the part of vendors to warn managers about the
  526. vulnerabilities of their systems.  He estimated his success rate
  527. of getting in at 10-15%, and that is without spending more than an
  528. hour on any one target system.  Another hacker says that he sees
  529. messages from vendors notifying the managers, but that the managers
  530. fail to take action.
  531.  
  532. Richard Pethia of CERT (Computer Emergency Response Team) reports
  533. that they seldom see cases of malicious damage caused by hackers,
  534. but that the break-ins are nevertheless disruptive because system
  535. users and administrators want to be sure that nothing was damaged.
  536. (CERT suggests that sites reload system software from secure backups
  537. and change all user passwords in order to protect against possible
  538. back doors and Trojan Horses that might have been planted by the
  539. hacker.  Pethia also noted that prosecutors are generally called
  540. for government sites, and are being called for non-government sites
  541. with increasing frequency.)  Pethia says that break-ins also generate
  542. a loss of trust in the computing environment, and may lead to adoption
  543. of new policies that are formulated in a panic or management edicts
  544. that severely restrict connectivity to outside systems.   Brian Harvey
  545. says that hackers cause damage by increasing the amount of paranoia,
  546. which in turn leads to tighter security controls that diminish the
  547. quality of life for the users.  Hackers respond to these points by
  548. saying they are the scapegoats for systems that are not adequately
  549. protected.  They say that the paranoia is generated by ill-founded
  550. fears and media distortions (I will return to this point later),
  551. and that security need not be oppressive to keep hackers out; it
  552. is mainly making sure that passwords and system defaults are
  553. well-chosen.
  554.  
  555. Pethia says that some intruders seem to be disruptive to prove a
  556. point, such as that the systems are vulnerable, the security personnel
  557. are incompetent, or ``it's not nice to say bad things about hackers.''
  558. In the N.Y. Times, John Markoff [Markoff90] wrote that the hacker
  559. who claimed to have broken into Cliff Stoll's system said he was
  560. upset by Stoll's portrayal of hackers in ``The Cuckoo's Egg''
  561. [Stoll90].   Markoff reported that the caller said: ``He [Stoll]
  562. was going on about how he hates all hackers, and he gave pretty much
  563. of a one-sided view of who hackers are.''
  564.  
  565. ``The Cuckoo's Egg'' captures much of the popular stereotypes of
  566. hackers.  Criminologist Jim Thomas criticizes it for presenting a
  567. simplified view of the world, one where everything springs from the
  568. forces of light (us) or of darkness (hackers) [Thomas90].  He claims
  569. that Stoll fails to see the similarities between his own activities
  570. (e.g., monitoring communications, ``borrowing'' monitors without
  571. authorization, shutting off network access without warning, and lying
  572. to get information he wants) and those of hackers.  He points out
  573. Stoll's use of pejorative words such as ``varmint'' to describe
  574. hackers, and Stoll's quote of a colleague: ``They're technically
  575. skilled but ethically bankrupt programmers without any respect for
  576. others' work -- or privacy.  They're not destroying one or two
  577. programs.  They're trying to wreck the cooperation that builds our
  578. networks.'' [Stoll90, p. 159]  Thomas writes ``at an intellectual
  579. level,  [Stoll] provides a persuasive, but simplistic, moral imagery
  580. of the nature of right and wrong, and provides what -- to a lay reader
  581. -- would seem a compelling justification for more statutes and severe
  582. penalties against the computer underground.  This is troublesome
  583. for two reasons.  First, it leads to a mentality of social control
  584. by law enforcement during a social phase when some would argue we
  585. are already over-controlled.  Second, it invokes a punishment model
  586. that assumes we can stamp out behaviors to which we object if only
  587. we apprehend and convict a sufficient number of violators. ...  There
  588. is little evidence that punishment will in the long run reduce any
  589. given offense, and the research of Gordon Meyer and I suggests that
  590. criminalization may, in fact, contribute to the growth of the computer
  591. underground.''
  592.  
  593.  
  594. 6. Public Image and Treatment
  595.  
  596. Hackers express concern about their negative public image and
  597. identity.  As noted earlier, hackers are often portrayed as being
  598. irresponsible and immoral.  One hacker said that ``government
  599. propaganda is spreading an image of our being at best, sub-human,
  600. depraved, criminally inclined, morally corrupt, low life.  We need
  601. to prove that the activities that we are accused of (crashing systems,
  602. interfering with life support equipment, robbing banks, and jamming
  603. 911 lines) are as morally abhorent to us as they are to the general
  604. public.''
  605.  
  606. The public identity of an individual or group is generated in part
  607. by the actions of the group interacting with the standards of the
  608. community observing those actions.  What then accounts for the
  609. difference between the hacker's public image and what they say about
  610. themselves?  One explanation may be the different standards.  Outside
  611. the hacking community, the simple act of breaking into systems is
  612. regarded as unethical by many.  The use of pejorative words like
  613. ``vandal'' and ``varmint'' reflect this discrepency in ethics.  Even
  614. the word ``criminal'' carries with it connotations of someone evil;
  615. hackers say they are not criminal in this sense.  Katie Hafner notes
  616. that Robert Morris, who was convicted of launching the Internet worm,
  617. was likened to a terrorist even though the worm did not destroy data
  618. [Hafner90].
  619.  
  620. Distortions of events and references to potential threats also create
  621. an image of persons who are dangerous.  Regarding the 911 incident
  622. where a hacker downloaded a file from Bell South, Goldstein reported
  623. ``Quickly, headlines screamed that hackers had broken into the 911
  624. system and were interfering with emergency telephone calls to the
  625. police.  One newspaper report said there were no indications that
  626. anyone had died or been injured as a result of the intrusions.  What
  627. a relief.  Too bad it wasn't true.'' [Goldstein90]  In fact, the
  628. hackers involved with the 911 text file had not broken into the 911
  629. system.  The dollar losses attributed to hacking incidents also are
  630. often highly inflated.
  631.  
  632. Thomas and Meyer [ThomasMeyer90] say that the rhetoric depicting
  633. hackers as a dangerous evil contributes to a ``witch hunt'' mentality,
  634. wherein a group is first labeled as dangerous, and then enforcement
  635. agents are mobilized to exorcise the alleged social evil.  They see
  636. the current sweeps against hackers as part of a reaction to a broader
  637. fear of change, rather than to the actual crimes committed.
  638.  
  639. Hackers say they are particularly concerned that computer security
  640. professionals and system managers do not appear to understand hackers
  641. or be interested in their concerns.  Hackers say that system managers
  642. treat them like enemies and criminals, rather than as potential helpers
  643. in their task of making their systems secure.  This may reflect
  644. managers' fears about hackers, as well as their responsibilities
  645. to protect the information on their systems.  Stallman says that
  646. the strangers he encounters using his account are more likely to
  647. have a chip on their shoulder than in the past; he attributes this
  648. to a harsh enforcer mentality adopted by the establishment.  He says
  649. that network system managers start out with too little trust and
  650. a hostile attitude toward strangers that few of the strangers deserve.
  651. One hacker said that system managers show a lack of openness to those
  652. who want to learn.
  653.  
  654. Stallman also says that the laws make the hacker scared to communicate
  655. with anyone even slightly ``official,'' because that person might
  656. try to track the hacker down and have him or her arrested.  Drake
  657. raised the issue of whether the laws could differentiate between
  658. malicious and nonmalicious hacking, in support of a ``kinder, gentler''
  659. relationship between hackers and computer security people.  In fact,
  660. many states such as California initially passed computer crime laws
  661. that excluded malicious hacking; it was only later that these laws
  662. were amended to include nonmalicious actions [HollingerLanza-Kaduce88].
  663. Hollinger and Lanza-Kaduce speculate that these amendments and other
  664. new laws were catalyzed mainly by media events, especially the reports
  665. on the ``414 hackers'' and the movie ``War Games,'' which created
  666. a perception of hacking as extremely dangerous, even if that perception
  667. was not based on facts.
  668.  
  669. Hackers say they want to help system managers make their systems
  670. more secure.  They would like managers to recognize and use their
  671. knowledge about design flaws and the outsider threat problem.
  672. Landreth [Landreth89] suggests ways in which system managers can
  673. approach hackers in order to turn them into colleagues, and Goodfellow
  674. also suggests befriending hackers [Goodfellow83].  John Draper (Cap'n
  675. Crunch) says it would help if system managers and the operators of
  676. phone companies and switches could coopererate in tracing a hacker
  677. without bringing in law enforcement authorities.
  678.  
  679. Drake suggests giving hackers free access in exchange for helping
  680. with security, a suggestion that I also heard from several hackers.
  681. Drake says that the current attitude of treating hackers as enemies
  682. is not very conducive to a solution, and by belittling them, we only
  683. cause ourselves problems.
  684.  
  685. I asked some of the hackers whether they'd be interested in breaking
  686. into systems if the rules of the ``game'' were changed so that instead
  687. of being threatened by prosecution, they were invited to leave a
  688. ``calling card'' giving their name, phone number, and method of
  689. breaking in.  In exchange, they would get recognition and points
  690. for each vulnerability they discovered.  Most were interested in
  691. playing; one hacker said he would prefer monetary reward since he
  692. was supporting himself.  Any system manager interested in trying
  693. this out could post a welcome message inviting hackers to leave their
  694. cards.  This approach could have the advantage of not only letting
  695. the hackers contribute to the security of the system, but of allowing
  696. the managers to quickly recognize the potentially malicious hackers,
  697. since they are unlikely to leave their cards.  Perhaps if hackers
  698. are given the opportunity to make contributions outside the
  699. underground, this will dampen their desire to pursue illegal activities.
  700.  
  701. Several hackers said that they would like to be able to pursue their
  702. activities legally and for income.  They like breaking into systems,
  703. doing research on computer security, and figuring out how to protect
  704. against vulnerabilities.  They say they would like to be in a position
  705. where they have permission to hack systems.  Goodfellow suggests
  706. hiring hackers to work on tiger teams that are commissioned to locate
  707. vulnerabilities in systems through penetration testing.  Baird
  708. Info-Systems Safeguards, Inc., a security consulting firm, reports
  709. that they have employed hackers on several assignments [Baird87].
  710. They say the hackers did not violate their trust or the trust of
  711. their clients, and performed in an outstanding manner.  Baird believes
  712. that system vulnerabilities can be better identified by employing
  713. people who have exploited systems.
  714.  
  715. One hacker suggested setting up a clearinghouse that would match
  716. hackers with companies that could use their expertise, while
  717. maintaining anonymity of the hackers and ensuring confidentiality
  718. of all records.  Another hacker, in describing an incident where
  719. he discovered a privileged account without a password, said ``What
  720. I (and others) wish for is a way that hackers can give information
  721. like this to a responsible source, AND HAVE HACKERS GIVEN CREDIT
  722. FOR HELPING! As it is, if someone told them that `I'm a hacker, and
  723. I REALLY think you should know...' they would freak out, and run
  724. screaming to the SS [Secret Service] or the FBI. Eventually, the
  725. person who found it would be caught, and hauled away on some crazy
  726. charge.  If they could only just ACCEPT that the hacker was trying
  727. to help!''  The clearinghouse could also provide this type of service.
  728.  
  729. Hackers are also interested in security policy issues.  Drake expressed
  730. concern over how we handle information about computer security
  731. vulnerabilities.  He argues that it is better to make this information
  732. public than cover it up and pretend that it does not exist, and cites
  733. the CERT to illustrate how this approach can be workable.  Other
  734. hackers, however, argue for restricting initial dissemination of
  735. flaws to customers and users.  Drake also expressed concern about
  736. the role of the government, particularly the military, in
  737. cryptography.  He argues that NSA's opinion on a cryptographic standard
  738. should be taken with a large grain of salt because of their code
  739. breaking role.
  740.  
  741. Some security specialists are opposed to hiring hackers for security
  742. work, and Eugene Spafford has urged people not to do business with
  743. any company that hires a convicted hacker to work in the security
  744. area [ACM90].  He says that ``This is like having a known arsonist
  745. install a fire alarm.''   But, the laws are such that a person can
  746. be convicted for having done nothing other than break into a system;
  747. no serious damage (i.e., no ``computer arson'') is necessary.  Many
  748. of our colleagues admit to having broken into systems in the past,
  749. e.g., Geoff Goodfellow [Goodfellow83] and Brian Reid [Frenkel87];
  750. Reid is quoted as saying that because of the knowledge he gained
  751. breaking into systems as a kid, he was frequently called in to help
  752. catch people who break in.  Spafford says that times have changed,
  753. and that this method of entering the field is no longer socially
  754. acceptable, and fails to provide adequate training in computer science
  755. and computer engineering [Spafford89].  However, from what I have
  756. observed, many hackers do have considerable knowledge about
  757. telecommunications, data security, operating systems, programming
  758. languages, networks, and cryptography.  But, I am not challenging
  759. a policy to hire competent people of sound character.  Rather, I am
  760. challenging a strict policy that uses economic pressure to close
  761. a field of activity to all persons convicted of breaking into
  762. systems.   It is enough that a company is responsible for the behavior
  763. of its employees.  Each hacker can be considered for employment based
  764. on his or her own competency and character.
  765.  
  766. Some people have called for stricter penalties for hackers, including
  767. prison terms, in order to send a strong deterrent message to hackers.
  768. John Draper, who was incarcerated for his activities in the 1970's,
  769. argues that in practice this will only make the problem worse.  He
  770. told me that he was forced under threat to teach other inmates his
  771. knowledge of communications systems.  He believes that prison sentences
  772. will serve only to spread hacker's knowledge to career criminals.
  773. He said he was never approached by criminals outside the prison,
  774. but that inside the prison they had control over him.
  775.  
  776. One hacker said that by clamping down on the hobbyist underground,
  777. we will only be left with the criminal underground.  He said that
  778. without hackers to uncover system vulnerabilities, the holes will
  779. be left undiscovered, to be utilized by those likely to cause real
  780. damage.
  781.  
  782. Goldstein argues that the existing penalties are already way out
  783. of proportion to the acts committed, and that the reason is because
  784. of computers [Goldstein89].  He says that if Kevin Mitnick had
  785. committed crimes similar to those he committed but without a computer,
  786. he would have been classified as a mischief maker and maybe fined
  787. $100 for trespassing; instead, he was put in jail without bail
  788. [Goldstein89].  Craig Neidorf, a publisher and editor of the electronic
  789. newsletter ``Phrack,'' faces up to 31 years and a fine of $122,000
  790. for receiving, editing, and transmitting the downloaded text file
  791. on the 911 system [Goldstein90].
  792.  
  793.  
  794. 7.  Privacy and the First and Fourth Amendments
  795.  
  796. The hackers I spoke with advocated privacy protection for sensitive
  797. information about individuals.   They said they are not interested
  798. in invading people's privacy, and that they limited their hacking
  799. activities to acquiring information about computer systems or how
  800. to break into them.  There are, of course, hackers who break into
  801. systems such as the TRW credit database.  Emanuel Goldstein argues
  802. that such invasions of privacy took place before the hacker arrived
  803. [Harpers90].  Referring to credit reports, government files, motor
  804. vehicle records, and the ``megabytes of data piling up about each
  805. of us,'' he says that thousands of people legally can see and use
  806. this data, much of it erroneous.  He claims that the public has been
  807. misinformed about the databases, and that hackers have become
  808. scapegoats for the holes in the systems.  One hacker questioned the
  809. practice of storing sensitive personal information on open systems
  810. with dial-up access, the accrual of the information, the methods
  811. used to acquire it, and the purposes to which it is put.  Another
  812. hacker questioned the inclusion of religion and race in credit records.
  813.  
  814. Drake told me that he was concerned about the increasing amount of
  815. information about individuals that is stored in large data banks,
  816. and the inability of the individual to have much control over the
  817. use of that information.  He suggests that the individual might be
  818. co-owner of information collected about him or her, with control
  819. over the use of that information.  He also says that an individual
  820. should be free to withhold personal information, of course paying
  821. the consequences of doing so (e.g., not getting a drivers license
  822. or credit card).  (In fact, all Federal Government forms are required
  823. to contain a Privacy Act Statement that states how the information
  824. being collected will be used and, in some cases, giving the option
  825. of withholding the information.)
  826.  
  827. Goldstein has also challenged the practices of law enforcement agencies
  828. in their attempt to crack down on hackers [Goldstein90].  He said
  829. that all incoming and outgoing electronic mail used by ``Phrack''
  830. was monitored before the newsletter was shutdown by authorities.
  831. ``Had a printed magazine been shut down in this fashion after having
  832. all of their mail opened and read, even the most thick-headed
  833. sensationalist media types would have caught on: hey, isn't that
  834. a violation of the First Amendment?''  He also cites the shutdown
  835. of several bulletin boards as part of Operation Sun Devil, and quotes
  836. the administrator of the bulletin board Zygot as saying ``Should
  837. I start reading my users' mail to make sure they aren't saying anything
  838. naughty?  Should I snoop through all the files to make sure everyone
  839. is being good?  This whole affair is rather chilling.''  The
  840. administrator for the public system The Point wrote ``Today, there
  841. is no law or precedent which affords me ... the same legal rights
  842. that other common carriers have against prosecution should some other
  843. party (you) use my property (The Point) for illegal activities.
  844. That worries me ...''
  845.  
  846. About 40 personal computer systems and 23,000 data disks were seized
  847. under Operation Sun Devil, a two-year investigation involving the
  848. FBI, Secret Service, and other federal and local law enforcement
  849. officials.  In addition, the Secret Service acknowledges that its
  850. agents, acting as legitimate users, had secretly monitored computer
  851. bulletin boards [Markoff90a].  Markoff reports that California
  852. Representative Don Edwards, industry leader Mitchell Kapor, and civil
  853. liberties advocates are alarmed by these government actions, saying
  854. that they challenge freedom of speech under the First Amendment and
  855. protection against searches and seizures under the Fourth Amendment.
  856. Markoff asks: ``Will fear of hackers bring oppression?''
  857.  
  858. John Barlow writes ``The Secret Service may actually have done a
  859. service for those of us who love liberty.  They have provided us
  860. with a devil.  And devils, among their other galvanizing virtues,
  861. are just great for clarifying the issues and putting iron in your
  862. spine.'' [Barlow90]  Some of the questions that Barlow says need
  863. to be addressed include ``What are data and what is free speech?
  864. How does one treat property which has no physical form and can be
  865. infinitely reproduced?  Is a computer the same as a printing press?''
  866. Barlow urges those of us who understand the technology to address
  867. these questions, lest the answers be given to us by law makers and
  868. law enforcers who do not.   Barlow and Kapor are constituting the
  869. Computer Liberty Foundation to ``raise and disburse funds for
  870. education, lobbying, and litigation in the areas relating to digital
  871. speech and the extension of the Constitution into Cyberspace.''
  872.  
  873. 8.  Conclusions
  874.  
  875. Hackers say that it is our social responsibility to share information,
  876. and that it is information hoarding and disinformation that are the
  877. crimes.  This ethic of resource and information sharing contrasts
  878. sharply with computer security policies that are based on authorization
  879. and ``need to know.'' This discrepancy raises an interesting question:
  880. Does the hacker ethic reflects a growing force in society that stands
  881. for greater sharing of resources and information -- a reaffirmation
  882. of basic values in our constitution and laws?  It is important that
  883. we examine the differences between the standards of hackers, systems
  884. managers, users, and the public.  These differences may represent
  885. breakdowns in current practices, and may present new opportunities
  886. to design better policies and mechanisms for making computer resources
  887. and information more widely available.
  888.  
  889. The sentiment for greater information sharing is not restricted to
  890. hackers.  In the best seller ``Thriving on Chaos,'' Tom Peters
  891. [Peters87] writes about sharing within organizations: ``Information
  892. hoarding, especially by politically motivated, power-seeking staffs,
  893. has been commonplace throughout American industry, service and
  894. manufacturing alike.  It will be an impossible millstone around the
  895. neck of tomorrow's organizations.  Sharing is a must.''  Peters argues
  896. that information flow and sharing is fundamental to innovation and
  897. competetiveness.  On a broader scale, Peter Drucker [Drucker89] says
  898. that the ``control of information by government is no longer possible.
  899. Indeed, information is now transnational.  Like money, it has no
  900. `fatherland.' ''
  901.  
  902. Nor is the sentiment restricted to people outside the computer security
  903. field.  Harry DeMaio [DeMaio89] says that our natural urge is to
  904. share information, and that we are suspicious of organizations and
  905. individuals who are secretive.  He says that information is exchanged
  906. out of ``want to know'' and mutual accommodation rather than ``need
  907. to know.''  If this is so, then some of our security policies are
  908. out of step with the way people work.  Peter Denning [DenningP89]
  909. says that information sharing will be widespread in the emerging
  910. worldwide networks of computers and that we need to focus on ``immune
  911. systems'' that protect against mistakes in our designs and recover
  912. from damage.
  913.  
  914. I began my investigation of hackers with the question: who are they
  915. and what is their culture and discourse?  My investigation uncovered
  916. some of their concerns, which provided the organizational structure
  917. to this paper, and several suggestions for new actions that might
  918. be taken.  My investigation also opened up a broader question:  What
  919. are the clashing discourses that the hackers stand at the battle
  920. lines of?  Is it owning or restricting information vs. sharing
  921. information -- a tension between an age-old tradition of controlling
  922. information as property and the Englightenment tradition of sharing
  923. and disseminating information?  Is it controlling access based on
  924. ``need to know,'' as determined by the information provider, vs.
  925. ``want to know,'' as determined by the person desiring access?
  926. Is it law enforcement vs. freedoms granted under the First and Fourth
  927. Amendments?  The answers to these questions, as well as those raised
  928. by Barlow on the nature of information and free speech, are important
  929. because they tell us whether our policies and practices serve us
  930. as well as they might.  The issue is not simply hackers vs. system
  931. managers or law enforcers; it is a much larger question about values
  932. and practices in an information society.
  933.  
  934.  
  935. Acknowledgments
  936.  
  937. I am deeply grateful to Peter Denning, Frank Drake, Nathan Estey,
  938. Katie Hafner, Brian Harvey, Steve Lipner, Teresa Lunt, Larry Martin,
  939. Gordon Meyer, Donn Parker, Morgan Schweers, Richard Stallman, and
  940. Alex for their comments on earlier versions of this paper and helpful
  941. discussions; to Richard Stallman for putting me in contact with
  942. hackers; John Draper, Geoff Goodfellow, Brian Reid, Eugene Spafford,
  943. and the hackers for helpful discussions; and Richard Pethia for a
  944. summary of some of his experiences at CERT. The opinions expressed
  945. here, however, are my own and do not necessarily represent those
  946. of the people mentioned above or of Digital Equipment Corporation.
  947.  
  948.  
  949. References
  950.  
  951. ACM90
  952.   ``Just say no,'' Comm. ACM, Vol. 33, No. 5, May 1990, p. 477.
  953.  
  954. Baird87
  955.   Bruce J. Baird, Lindsay L. Baird, Jr., and Ronald P. Ranauro, ``The
  956.   Moral Cracker?,'' Computers and Security, Vol. 6, No. 6, Dec. 1987,
  957.   p. 471-478.
  958.  
  959. Barlow90
  960.   John Barlow, ``Crime and Puzzlement,'' June 1990, to appear in Whole
  961.   Earth Review.
  962.  
  963. Corley89
  964.   Eric Corley, ``The Hacking Fever,'' in Pamela Kane, V.I.R.U.S.
  965.   Protection, Bantam Books, New York, 1989, p. 67-72.
  966.  
  967. DeMaio89
  968.   Harry B. DeMaio, ``Information Ethics, a Practical Approach,''
  969.   Proc. of the 12th National Computer Security Conference, 1989,
  970.   p. 630-633.
  971.  
  972. DenningP89
  973.   Peter J. Denning, ``Worldnet,'' American Scientist, Vol. 77, No. 5,
  974.   Sept.-Oct., 1989.
  975.  
  976. DenningP90
  977.   Peter J. Denning, Computers Under Attack, ACM Press, 1990.
  978.  
  979. Dibbel90
  980.   Julian Dibbel, ``Cyber Thrash,'' SPIN, Vol. 5, No. 12, March 1990.
  981.  
  982. Drucker89
  983.   Peter F. Drucker, The New Realities, Harper and Row, New York, 1989.
  984.  
  985. Felsenstein86
  986.   Lee Felsenstein, ``Real Hackers Don't Rob Banks,'' in full report on
  987.   ACM Panel on Hacking [Lee86].
  988.  
  989. Frenkel87
  990.   Karen A. Frenkel, ``Brian Reid, A Graphics Tale of a Hacker
  991.   Tracker,'' Comm. ACM, Vol. 30, No. 10, Oct. 1987, p. 820-823.
  992.  
  993. Goldstein89
  994.   Emmanuel Goldstein, ``Hackers in Jail,'' 2600 Magazine, Vol. 6, No. 1,
  995.   Spring 1989.
  996.  
  997. Goldstein90
  998.   Emmanuel Goldstein, ``For Your Protection,'' 2600 Magazine, Vol. 7,
  999.   No. 1, Spring 1990.
  1000.  
  1001. Goodfellow83
  1002.   Geoffrey S. Goodfellow, ``Testimony Before the Subcommittee on
  1003.   Transportation, Aviation, and Materials on the Subject of
  1004.   Telecommunications Security and Privacy,'' Sept. 26, 1983.
  1005.  
  1006. Hafner90
  1007.   Katie Hafner, ``Morris Code,'' The New Republic, Feb. 16, 1990,
  1008.   p. 15-16.
  1009.  
  1010. Harpers90
  1011.   ``Is Computer Hacking a Crime?" Harper's, March 1990, p. 45-57.
  1012.  
  1013. Harvey86
  1014.   Brian Harvey, ``Computer Hacking and Ethics,'' in full report on
  1015.   ACM Panel on Hacking [Lee86].
  1016.  
  1017. HollingerLanza-Kaduce88
  1018.   Richard C. Hollinger and Lonn Lanza-Kaduce, ``The Process of
  1019.   Criminalization: The Case of Computer Crime Laws,'' Criminology,
  1020.   Vol. 26, No. 1, 1988, p. 101-126.
  1021.  
  1022. Huebner89
  1023.   Hans Huebner, ``Re: News from the KGB/Wiley Hackers,'' RISKS Digest,
  1024.   Vol. 8, Issue 37, 1989.
  1025.  
  1026. Landreth89
  1027.   Bill Landreth, Out of the Inner Circle, Tempus, Redmond, WA, 1989.
  1028.  
  1029. Lee86
  1030.   John A. N. Lee, Gerald Segal, and Rosalie Stier, ``Positive
  1031.   Alternatives: A Report on an ACM Panel on Hacking,'' Comm. ACM,
  1032.   Vol. 29, No. 4, April 1986, p. 297-299; full report available from
  1033.   ACM Headquarters, New York.
  1034.  
  1035. Levy84
  1036.   Steven Levy, Hackers, Dell, New York, 1984.
  1037.  
  1038. Markoff90
  1039.   John Markoff, ``Self-Proclaimed `Hacker' Sends Message to Critics,''
  1040.   The New York Times, March 19, 1990.
  1041.  
  1042. Markoff90a
  1043.   John Markoff, ``Drive to Counter Computer Crime Aims at Invaders,''
  1044.   The New York Times, June 3, 1990.
  1045.  
  1046. Martin89
  1047.   Larry Martin, ``Unethical `Computer' Behavior: Who is Responsible?,''
  1048.   Proc. of the 12th National Computer Security Conference, 1989.
  1049.  
  1050. Meyer89
  1051.   Gordon R. Meyer, The Social Organization of the Computer Underground,
  1052.   Master's thesis, Dept. of Sociology, Northern Illinois Univ., Aug.
  1053.   1989.
  1054.  
  1055. MeyerThomas90
  1056.   Gordon Meyer and Jim Thomas, ``The Baudy World of the Byte Bandit:
  1057.   A Postmodernist Interpretation of the Computer Underground,'' Dept.
  1058.   of Sociology, Northern Illinois Univ., DeKalb, IL, March 1990.
  1059.  
  1060. Peters87
  1061.   Tom Peters, Thriving on Chaos, Harper & Row, New York, Chapter VI, S-3,
  1062.   p. 610, 1987.
  1063.  
  1064. Samuelson89
  1065.   Pamela Samuelson, ``Information as Property: Do Ruckelshaus and
  1066.   Carpenter Signal a Changing Direction in Intellectual Property Law?"
  1067.   Catholic University Law Review, Vol. 38, No. 2, Winter 1989, p.
  1068.   365-400.
  1069.  
  1070. Spafford89
  1071.   Eugene H. Spafford, ``The Internet Worm, Crisis and Aftermath,''
  1072.   Comm. ACM, Vol. 32, No. 6, June 1989, p. 678-687.
  1073.  
  1074. Stallman84
  1075.   Richard M. Stallman, Letter to ACM Forum, Comm. ACM, Vol. 27,
  1076.   No. 1, Jan. 1984, p. 8-9.
  1077.  
  1078. Stallman90
  1079.   Richard M. Stallman, ``Against User Interface Copyright'' to appear
  1080.   in Comm. ACM.
  1081.  
  1082. Steele83
  1083.   Guy L. Steele, Jr., Donald R. Woods, Raphael A. Finkel, Mark R.
  1084.   Crispin, Richard M. Stallman, and Geoffrey S. Goodfellow,  The
  1085.   Hacker's Dictionary, Harper & Row, New York, 1983.
  1086.  
  1087. Stoll90
  1088.   Clifford Stoll, The Cuckoo's Egg, Doubleday, 1990.
  1089.  
  1090. Thomas90
  1091.   Jim Thomas, ``Review of The Cuckoo's Egg,'' Computer Underground
  1092.   Digest, Issue #1.06, April 27, 1990.
  1093.  
  1094. ThomasMeyer90
  1095.   Jim Thomas and Gordon Meyer, ``Joe McCarthy in a Leisure Suit:
  1096.   (Witch)Hunting for the Computer Underground,''  Unpublished
  1097.   manuscript, Department of Sociology, Northern Illinois University,
  1098.   DeKalb, IL, 1990; see also the Computer Underground Digest, Vol.
  1099.   1, Issue 11, June 16, 1990.
  1100.  
  1101.  
  1102.  
  1103.